Это метод, который нормализует входы нейросети. На специальном слое batch normalization текущий батч (пакет данных) приводится к нулевому среднему и единичной дисперсии.
Это позволяет: ⚫ быстрее обучаться, так как все числа получаются одного порядка; ⚫ улучшить сходимость нейросети; ⚫ сделать сеть менее чувствительной к выбору начальных значений весов; ⚫ даже бороться с переобучением.
Стоит отметить, что до сих пор идут дискуссии о причинах эффективной работы batch normalization.
Это метод, который нормализует входы нейросети. На специальном слое batch normalization текущий батч (пакет данных) приводится к нулевому среднему и единичной дисперсии.
Это позволяет: ⚫ быстрее обучаться, так как все числа получаются одного порядка; ⚫ улучшить сходимость нейросети; ⚫ сделать сеть менее чувствительной к выбору начальных значений весов; ⚫ даже бороться с переобучением.
Стоит отметить, что до сих пор идут дискуссии о причинах эффективной работы batch normalization.
#junior #middle
BY Библиотека собеса по Data Science | вопросы с собеседований
Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283